- Expertos de Kaspersky explican qué son los Deepfakes y por qué hay tanta controversia en torno a ellos
Recientemente, Google prohibió los algoritmos Deepfake de Google Colaboratory, su servicio informático gratuito con acceso a GPU. El gigante de la tecnología no es el único que regula los Deepfake: varios estados de EE. UU. tienen leyes que las regulan; el proyecto de ley de China exige la identificación de los contenidos generados por computadora; y la posible regulación de la Inteligencia Artificial de la Unión Europea puede incluir una cláusula sobre esta tecnología en particular.
Un estudio de Kaspersky revela que en América Latina, el 70% de los usuarios de internet ignora la existencia de esta táctica. De los encuestados, los peruanos (75%) son los que más la desconocen, seguidos de los mexicanos y chilenos (ambos con 72%), los argentinos (67%), brasileños (66%) y colombianos (63%). Para los expertos en ciberseguridad, este índice de desconocimiento es preocupante porque podría garantizar el éxito de tácticas de ingeniería social y fraude que aplican esta tecnología.
Los Deepfakes comúnmente se refiere a varios tipos de contenidos sintéticos generados por computadora que involucran a personas y están hechos con redes neuronales profundas. Estos pueden ser videos, fotos o grabaciones de voz. El uso del aprendizaje profundo, en lugar de las técnicas tradicionales de edición de imágenes, reduce drásticamente el esfuerzo y la habilidad necesarios para crear una falsificación convincente.
Originalmente, el término se refería a una pieza particular de software que había ganado popularidad en Reddit. El software podía implantar la cara de una persona en un video con otra persona y se usaba casi en su totalidad para crear pornografía no consentida con celebridades. Según algunas estimaciones, hasta el 96 % de todas los Deepfake son pornográficas, lo que pone de relieve las preocupaciones sobre el uso de los Deepfake para el abuso, la extorsión y el escarnio público.
Según expertos, esta tecnología también podría ayudar a los ciberdelincuentes. En al menos dos casos, en Inglaterra y Hong Kong, se ha utilizado una voz falsa para engañar a las empresas para que transfieran fondos a los estafadores, haciéndose pasar por los funcionarios de las respectivas empresas. Investigaciones recientes mostraron que los algoritmos comerciales de detección de vida, utilizados por las instituciones financieras en los procedimientos de verificación de identidad, podrían ser engañados por Deepfakes creadas a partir de fotos de identificación, generando nuevos vectores de ataque y haciendo que las identificaciones filtradas sean un problema aún más grave.
Otro problema es que los Deepfakes socavan la confianza en el contenido de audio y video, ya que pueden usarse con fines maliciosos. Por ejemplo, en un caso reciente se utilizó una entrevista falsa de Elon Musk para promover una estafa de criptomonedas. Varios expertos e instituciones, como Europol, advierten que la creciente disponibilidad de Deepfakes puede conducir a una mayor proliferación de desinformación en Internet.
No todo son malas noticias. La manipulación de imágenes es tan antigua como las propias imágenes, los contenidos generados por computadora ha existido durante décadas, y ambas han encontrado un uso decente, al igual que los Deepfakes. Por ejemplo, en un video reciente de Kendrick Lamar, Heart Part 5, se usó tecnología Deepfake para transformar la cara del rapero en otras celebridades famosas, como Kanye West. En la película Top Gun: Maverick, se usó un algoritmo para dar voz al personaje de Val Kilmer después de que el actor perdiera la voz. También se utilizó un algoritmo Deepfake para crear una serie viral de TikTok protagonizada por el falso Tom Cruise. Y algunas nuevas empresas están buscando nuevas formas de usar la tecnología, por ejemplo, para generar avatares de metaverso realistas.
“Los Deepfakes son un excelente ejemplo de una tecnología que se desarrolla más rápido de lo que realmente podemos comprender y manejar las complicaciones. Es por eso que se percibe como una adición al conjunto de herramientas de un artista y como un nuevo instrumento de desinformación que desafía aquello en lo que nosotros como sociedad podemos confiar”, dice Vladislav Tushkanov, Director de Data Scientist en Kaspersky.
Con todos los problemas de confianza que rodean a los Deepfakes, los usuarios pueden preguntarse cómo detectarlos. Estos son algunos consejos de Kaspersky:
- Un Deepfake convincente, como el que presenta a Tom Cruise, aún requiere mucha experiencia y esfuerzo, y en ocasiones, un imitador profesional. Los Deepfakes utilizados para estafas aún tienden a ser de baja calidad y pueden detectarse al notar movimientos de labios poco naturales, cabello mal representado, formas de rostro que no coinciden, parpadeo escaso o nulo, diferencias en el color de la piel, etc. Los errores en la representación de la ropa o el paso de una mano por la cara también pueden delatar un Deepfake amateur.
- Si ve a una persona famosa o pública haciendo afirmaciones descabelladas u ofertas demasiado buenas para ser verdad, incluso si el video es convincente, proceda con la diligencia debida y verifique la información con fuentes confiables. Tenga en cuenta que los estafadores pueden codificar videos intencionalmente para ocultar las deficiencias de los Deepfakes, por lo que la mejor estrategia no es mirar el video en busca de pistas, sino usar su sentido común y sus habilidades para verificar hechos.
- Una solución de seguridad confiable puede proporcionar un buen soporte si un Deepfake de alta calidad convence a los usuarios de descargar archivos o programas maliciosos, o de visitar enlaces sospechosos o sitios web de phishing.
- En caso de que seas víctima de pornografía Deepfake, puedes comunicarte tanto con el sitio web para solicitar que eliminen el video (muchos sitios web prohíben la publicación de Deepfakes) como con una agencia de aplicación de la ley, ya que generar Deepfakes es un delito penal en algunas legislaciones.
Nuestras noticias también son publicadas a través de nuestra cuenta en Twitter @ITNEWSLAT y en la aplicación SQUID |